Legge sull'intelligenza artificiale: una quarantina di associazioni, tra cui la Federazione internazionale dei giornalisti, denunciano un "tradimento degli obiettivi della normativa europea"

Avrebbe dovuto reggersi su due pilastri: la tutela dei diritti fondamentali e l'emergere di un ecosistema basato sull'intelligenza artificiale. Ma, sebbene non sia ancora pienamente attuato – lo sarà gradualmente fino al 2027 – l'AI Act (Artificial Intelligence Act) sta già arrancando.
All'inizio di agosto sono state imposte alcune misure restrittive agli editori di software, come il divieto di commercializzare strumenti di riconoscimento facciale o di vendere programmi di previsione del comportamento, ma una vera regolamentazione della cosiddetta IA "ad alto rischio", ad esempio nell'istruzione o nel controllo delle frontiere , non avverrà prima del 2026.
Se questa seconda parte dell'AI Act era così attesa, è stato principalmente perché avrebbe dovuto regolamentare l'uso di contenuti protetti da copyright da parte dei cosiddetti programmi generativi, come ChatGPT o Gemini di Google.
Invece di produrre un quadro vincolante, la Commissione Europea ha elaborato un codice di condotta da sottoporre ai giganti della tecnologia. Sono invitati a produrre un documento che fornirà " una panoramica completa dei dati utilizzati per addestrare un modello ". L'editore elencherà le principali raccolte di dati e spiegherà le altre fonti utilizzate ", ha spiegato la Commissione in un comunicato stampa.
Questo è solo un riepilogo delle tipologie di fonti più comunemente utilizzate per addestrare l'IA generativa e alimentarla quotidianamente. Non vi sono informazioni specifiche o dettagliate che consentano di provare la violazione del copyright.
Ecco perché una quarantina di organizzazioni titolari di diritti provenienti da tutto il mondo (la Federazione Internazionale dei Giornalisti, associazioni che riuniscono produttori cinematografici, sceneggiatori, doppiatori, traduttori, compositori, editori, registi) hanno pubblicato congiuntamente mercoledì scorso un comunicato stampa in cui denunciavano: un " tradimento degli obiettivi del regolamento europeo sull'intelligenza artificiale" . Queste associazioni di creatori puntavano molto sull'AI Act per creare un quadro di protezione da cui il resto del mondo avrebbe potuto trarre ispirazione.
Questo codice di buone pratiche " non affronta le preoccupazioni fondamentali che i nostri settori hanno costantemente sollevato ", denunciano i titolari dei diritti, che deplorano " un'occasione persa per garantire una protezione significativa dei diritti di proprietà intellettuale nel contesto dello sviluppo dell'intelligenza artificiale generativa ".
Lungi dall'essere un compromesso, questa seconda parte sembra essere " a esclusivo vantaggio dei fornitori di modelli di intelligenza artificiale generativa che violano continuamente il copyright e i diritti connessi per addestrare i loro modelli", denunciano le organizzazioni.
Reporter Senza Frontiere aveva già chiuso la porta ai negoziati e insistito su un altro punto altrettanto cruciale del copyright: questo "Codice non contiene una sola disposizione concreta per contrastare i comprovati pericoli che l'intelligenza artificiale rappresenta per l'accesso a informazioni affidabili. Le questioni democratiche non possono essere relegate, come avviene oggi, in un'appendice".
RSF voleva che l'accesso dei cittadini a informazioni affidabili fosse considerato un diritto fondamentale nell'AI Act, di fronte alla proliferazione di deepfake , siti di fake news automatizzati o informazioni fuorvianti diffuse tramite l'intelligenza artificiale generativa, guidata da Grok di Elon Musk . In breve, questo codice di buone pratiche non fa alcun riferimento alla disinformazione. Quanto ai rischi fondamentali, ad esempio relativi al corretto svolgimento delle elezioni, sono, come denuncia RSF, solo menzionati in appendice.
Per la stampa, la sfida è duplice: un recente sondaggio del Pew Research Center ha dimostrato che il riassunto redatto da IA generative come ChatGPT o Gemini spesso dissuade gli utenti di Internet dall'andare oltre . Di conseguenza, cliccano sui link proposti con una frequenza dimezzata rispetto a quando effettuano una ricerca su un motore di ricerca tradizionale.
Si tratta di un numero analogo di visitatori in meno sui siti di media, che fanno affidamento su questo canale per le entrate pubblicitarie e gli abbonamenti. Di conseguenza, quasi un giovane su cinque sotto i 25 anni utilizza ora l'intelligenza artificiale generativa per reperire informazioni .
Tuttavia, ben al di sotto delle ambizioni iniziali, questa seconda parte dell'AI Act è già troppo restrittiva per molti attori economici che chiedono una pausa nella sua attuazione.
Google dovrebbe firmare questo codice di condotta, specificando che " l'AI Act e il codice rischiano di rallentare (...) la diffusione dell'IA in Europa ". Meta (Facebook), da parte sua, ha annunciato che non lo firmerà nemmeno. Un portavoce ha addirittura dichiarato: " L'approccio incoerente, restrittivo e controproducente dell'Unione Europea (...) contrasta nettamente con la leadership pro-innovazione del Presidente Trump ".
Va detto che Meta sta già affrontando azioni legali in Europa. L'Unione Nazionale dell'Editoria, la Société des Gens de Lettres e l'Unione Nazionale degli Autori e Compositori hanno citato in giudizio il gruppo per " contraffazione " e " parassitismo economico ".
Le organizzazioni di autori ed editori ritengono che il gigante della tecnologia abbia sfruttato, senza l'autorizzazione dei titolari dei diritti, volumi " colossali " di opere protette da copyright per alimentare la sua intelligenza artificiale generativa.
A differenza del 90% dei media francesi odierni, L'Humanité non dipende da grandi gruppi o miliardari . Ciò significa che:
- Vi forniamo informazioni imparziali e senza compromessi . Ma anche che
- Non abbiamo le risorse finanziarie di cui dispongono gli altri organi di informazione .
L'informazione indipendente e di qualità ha un costo . Pagalo. Voglio saperne di più.
L'Humanité